Google прави корекции на обобщенията за търсене, генерирани от AI, след като странни отговори станаха вирусни
Гугъл сподели в петък, че е направила „ повече от дузина механически усъвършенствания “ на своите системи за изкуствен интелект, откакто беше открито, че модифицираната му търсачка изхвърля неверна информация.
Технологичната компания започва видоизменение на своята търсачка в средата на май, която постоянно дава генерирани от AI систематизирания върху резултатите от търсенето. Скоро по-късно потребителите на обществените медии започнаха да споделят екранни фотоси на най-странните отговори.
Гугъл значително отбрани своята функционалност за обзор на AI, като сподели, че нормално е точна и е тествана обширно авансово. Но Лиз Рийд, началник на бизнеса за търсене на Гугъл, призна в обява в блог в петък, че „ някои странни, неточни или безполезни AI прегледи сигурно се появиха. “
Докато доста от образците бяха глупави, други бяха рискови или нездравословни неистини.
Асошиейтед прес предходната седмица попита Гугъл кои диви гъби да яде и той отговори с дълго обобщение, генерирано от изкуствен интелект, което беше най-вече механически вярно, само че „ доста информация липсва това може да има капацитет да бъде непоносимо или даже съдбовно “, сподели Мери Катрин Ейм, професор по микология и ботаника в университета Пърдю, която прегледа отговора на Гугъл на запитването на AP.
Например, информацията за гъбите, известни като пухкави топки, е „ повече или по-малко точна “, сподели тя, само че прегледът на Гугъл акцентира търсенето на такива с твърда бяла плът – каквито доста евентуално смъртоносни имитатори на пухкавички също имат.
В различен необятно споделян образец, откривател на AI попита Гугъл какъв брой мюсюлмани са били президенти на Съединените щати и той отговори решително с от дълго време развенчана доктрина на конспирацията: „ Съединените щати са имали един мюсюлмански президент, Барак Хюсеин Обама. ”
Миналата седмица Гугъл направи незабавна промяна, с цел да предотврати повтаряне на грешката на Obama, защото нарушава разпоредбите за наличие на компанията.
В други случаи Рийд сподели в петък, че се е стремил да направи по-широки усъвършенствания като „ механизми за разкриване на безсмислени запитвания “ – като „ Колко камъни би трябвало да хапвам? “ — на това не би трябвало да се дава отговор с обобщение на AI.
Системите за изкуствен интелект също бяха обновени, с цел да лимитират потреблението на генерирано от потребителите наличие – като изявления в обществените медии в Reddit – което може да предложи подвеждащи препоръки. В един необятно споделян образец, прегледът на Гугъл AI предходната седмица, извлечен от язвителен коментар в Reddit, предлагащ потреблението на лепило, с цел да се получи сирене, което да се залепи за пицата.
Рийд сподели, че компанията също по този начин е добавила повече „ ограничавания за задействане “, с цел да усъвършенства качеството на отговорите на избрани запитвания, като да вземем за пример за здравето.
Резюметата на Гугъл са предопределени да дават на хората достоверни отговори на информацията, която търсят, допустимо най-бързо, без да се постанова да щракат през класиран лист с връзки към уеб страници.
Но някои специалисти по изкуствен интелект от дълго време предизвестиха Гугъл да не отстъпва резултатите от търсенето си на генерирани от изкуствен интелект отговори, които биха могли да увековечат пристрастия и дезинформация и да застрашат хората, търсещи помощ при незабавни случаи. Системите с изкуствен интелект, известни като огромни езикови модели, работят, като плануват кои думи биха дали отговор най-добре на заложените им въпроси въз основа на данните, на които са били подготвени. Те са склонни да си измислят неща – необятно проучен проблем, прочут като илюзия.
В петъчната си обява в блога Рийд твърди, че прегледите на AI на Гугъл „ като цяло не „ халюцинират “ или измислят нещата по методите, по които други “ огромни артикули, основани на езикови модели, биха могли, тъй като са по-тясно интегрирани с обичайното търсене на Гугъл в проявление единствено на това, което е подкрепено от най-хубавите уеб резултати.
„ Когато AI Overviews сгреши, това нормално е заради други аргументи: погрешно пояснение на поръчки, погрешно пояснение на колорит на езика в мрежата или липса на доста от страхотна налична информация “, написа тя.